Sea \(x_t\) una observación aleatoria de una serie de tiempo. Definimos el símbolo \(L\) como:
\[\begin{equation} L x_t = x_{t-1} \end{equation}\]
\(L\) es lo que en matemáticas es conocido como un operador. No es un parámetro o un número pero puede ser tratado como tal para operaciones algebraicas, e.g. \(L^2 x_t = L(L x_t) = L x_{t-1} = x_{t-2}\), en general \(L^n x_t = x_{t-n}\)
En adición, la expresión
\[\begin{equation} \alpha(L) = \alpha_0 + \alpha_1 L + \alpha_2 L^2 + \dots + \alpha_p L^p \end{equation}\]
es llamado el polinomio de orden p del operador de rezagos.
Y si lo aplicamos a un serie de tiempo, generamos una media móvil ponderada de la serie, i.e.
\[\begin{equation} \alpha(L)x_t = \alpha_0 + \alpha_1 x_{t-1} + \alpha_2 x_{t-2} + \dots + \alpha_p x_{t-p} \end{equation}\]
Otro operador usado es
\[\begin{equation} \Delta = 1 - L \end{equation}\]
el operador de diferencia. \(\Delta x_t = x_t - x_{t-1}\) es el cambio en \(x\) en el periodo \(t\).
Es importante anotar la diferencia de notación entre
\[\begin{equation} \Delta_n = 1 - L^n \end{equation}\]
que el operador de la diferencia de \(n\) periodos, y
\[\begin{equation} \Delta^n = (1 - L)^n \end{equation}\]
el operador de la diferencia de orden \(n\), e.g. \(\Delta_2 x_t = x_t - x_{t-2}\) y \(\Delta^2 x_t= \Delta x_t - \Delta x_{t-1} = (x_t - x_{t-1}) - (x_{t-1} - x_{t-2})\)
Estacionariedad débil: Una secuencia aleatoria \(\{x_t\}\) es estacionaria débil (o estacionaria en covarianza) si la media, varianza y la secuencia de autocovarianzas de orden \(j\) , para \(j>0\) son independientes de \(t\)
Estacionariedad Estricta:
Una secuencia aleatoria \(\{x_t\}\) es estacionaria estricta si para todo \(k>0\) la distribución conjunta de todas las colecciones \((x_t,x_{t+1},x_{t+2},\dots,x_{t+k})\) no depende de \(t\)
Estacionariedad estricta implica estacionariedad débil, pero lo contrario no siempre aplica.
En el caso especial de la distribución normal, estacionariedad débil si implica estacionariedad estricta.
consideremos el siguiente proceso con tendencia y \(|\phi| < 1\),
\[\begin{equation} x_t = \delta + \alpha t + \phi x_{t-1} + \varepsilon_t \end{equation}\]
Si estimamos la media de este proceso vemos que depende del tiempo,
\[\begin{align*} E[x_t] & = E[\delta + \alpha t + \phi x_{t-1} + \varepsilon_t] \end{align*}\]
reemplazando obtenemos,
\[\begin{align*} E[x_t] & = E[\delta] + E[\alpha t] + E[\phi x_{t-1}] + E[\varepsilon_t] \\ & = \delta + \alpha t + \phi E[\delta + \alpha (t-1) + \phi x_{t-2} + \varepsilon_{t-1}] \\ & \vdots \\ & = \sum_{i=0}^n \phi^i (\delta + \alpha (t-i)) \end{align*}\]
dado que \(|\phi| < 1\) y \(n \rightarrow \infty\)
por lo tanto la media sería,
\[\begin{equation} E[x_t] = \frac{\delta + \alpha(\phi (t + 1) - t)}{(1-\phi)^2} \end{equation}\]
y dado que depende de \(t\) no sería estacionaria bajo nuestra definición de estacionariedad.
Ahora veamos el caso del proceso definido como,
\[\begin{equation}\label{eq:rw} x_t = x_{t-1} + \varepsilon_t \end{equation}\]
Este proceso es conocido como “random walk” o paseo aleatorio.
¿Es este proceso estacionario (débil)? Para esto miremos cual es la media y la varianza de este modelo.
\[\begin{align} E(x_t) & = E( x_{t-1} + \varepsilon_t) \\ & = E(x_{t-1}) + E(\varepsilon_t) \\ & = E[ ( x_{t-2} + \varepsilon_{t-1})] + E(\varepsilon_t) \\ & = E[ x_{t-2}] + E[ \varepsilon_{t-1}] + E(\varepsilon_t) \\ & = E[(x_{t-3} + \varepsilon_{t-2})] + E[ \varepsilon_{t-1}] + E(\varepsilon_t) \end{align}\]
\[\begin{align} E(X + Y) & = E(X) + E(Y) \\ E(k* X) & = k E(X) \text{ Para todo } k \in \mathbb{R} \\ E(X*Y) & = E(X) * E(Y) \text{ Sí y solo sí X y Y son independientes} \\ E(X) & = E[E(X | Y)] \end{align}\]
Si seguimos iterando hacia atrás obtenemos \[\begin{align} E(x_t) & = E[x_{t-n}] + E[\varepsilon_{t-(n-1)}] + \dots + E[ \varepsilon_{t-1}] + E(\varepsilon_t) \\ \\ E(x_t) & = E[x_{t-n}] + 0 + \dots + 0 + 0 \\ E(x_t) & = E[x_{t-n}] \end{align}\]
Ahora hacemos lo mismo para la varianza, por facilidad de exposición asumimos que \(E[x_1] = 0\):
\[\begin{align} Var(x_t) & = E[(x_t - E[x_t])^2] \\ & = E[x_t^2] \\ & = E[(x_{t-1} + \varepsilon_t)^2] \\ & = E[(x_{t-1})^2] + 2E[ x_{t-1}\varepsilon_t] + E[\varepsilon_t^2] \\ & = E[x_{t-1}^2] + 0 + E[\varepsilon_t^2] \end{align}\]
Si seguimos iterando hacia atrás obtenemos
\[\begin{align} Var(x_t) & = E[( x_{t-2} + \varepsilon_{t-1})^2] + E[\varepsilon_t^2] \\ & = E[x_{t-2}^2] + E[\varepsilon_{t-1}^2] + E[\varepsilon_t^2] \\ \end{align}\]
Repitiendo este proceso, obtenemos
\[\begin{align} Var(x_t) & = E[x_{t-n}^2] + E[\varepsilon_{t-n}^2 ] + \dots + E[\varepsilon_{t-1}^2] + E[\varepsilon_t^2] \\ \end{align}\]
Suponiendo \(Var(x_1) = \sigma^2\), este proceso tiene varianza igual a,
\[\begin{equation} \gamma_{0,t} = t \sigma^2 \end{equation}\]
por lo cual el proceso es no estacionario.
Se deja como ejercicio, que la auto-covarianza es,
\[\begin{equation} \gamma_{j,t} = (t-j) \sigma^2 \end{equation}\]
Finalmente, la auto-correlación esta dada por,
\[\begin{align*} \rho_{j,t} & = \frac{\gamma_{j,t}}{\sqrt{\gamma_{0,t}}\sqrt{\gamma_{0,t-j}}} \\ & = \frac{(t-j)\sigma^2}{\sqrt{t \sigma^2} \sqrt{(t -j)\sigma^2} } \\ & = \frac{\sqrt{t-j}}{\sqrt{t}} \end{align*}\]
Sin embargo, podemos hacer uso del operador de diferencias para convertir esta serie en un proceso estacionario,
\[\begin{equation} w_t = \Delta x_t = x_t - x_{t-1} = \varepsilon_t \end{equation}\]
donde \(w_t\) es estacionario.
Acá pasamos de \(x_t\) a \(w_t\) pero siempre podemos hacer el proceso contrario en caso tal que deseemos conocer los valores de la serie original
\[\begin{align} x_t & = w_t + x_{t-1} \\ & = w_t + w_{t-1} + x_{t-2} \\ & \vdots \\ & = w_t + w_{t-1} + w_{t-2} + w_{t-3} + \dots \end{align}\]
por lo tanto el proceso \(x_t\) se obtiene sumando o integrando el proceso \(w_t\)
Por esta razón, el paseo aleatorio hace parte de la clase de modelos integrados.
Los modelos integrados son aquellos que se pueden obtener mediante suma o integración de modelos estacionarios
Por este motivo se han diseñado diferentes pruebas estadísticas para asegurase de la estacionariedad de la serie. A continuación veremos cuatro de las pruebas más usadas:
Dickey y Fuller (1979) consideraron el modelo AR(1),
\[\begin{equation} x_t = \phi x_{t-1} + \varepsilon_t \end{equation}\]
Cuando \(\phi =1\) este proceso tiene raíz unitaria y se vuelve un paseo aleatorio.
Si substraemos \(x_{t-1}\) de ambos lados, obtenemos
\[\begin{equation}\label{df}\tag{*} \Delta x_t = (\phi - 1) x_{t-1} + \varepsilon_t \end{equation}\]
Así, para testear la hipótesis de raíz unitaria, podemos testear que el coeficiente de \(x_{t-1}\) en la ecuación (*) sea igual a cero, contra la alternativa que es menor a cero
Además de la ecuación (*), D-F también desarrollaron el método para casos con constante, i.e.
\[\begin{equation}\label{df2}\tag{+} \Delta x_t = \delta + (\phi - 1) x_{t-1} + \varepsilon_t \end{equation}\]
y tendencia
\[\begin{equation}\label{df3}\tag{^} \Delta x_t = \delta + \alpha t + (\phi - 1) x_{t-1} + \varepsilon_t \end{equation}\]
MacKinnon (1996) también estimo las probabilidades asociadas a los parámetros de (+) y (^). En economía por lo general testeamos usando (+)
Los resultados anteriores parten de un modelo AR(1), Dickey (1984) extendió estos resultados para proceso AR(p), de forma tal que lo podemos escribir como,
\[\begin{equation}\label{dfa}\tag{++} \Delta x_t = \beta x_{t-1} + \phi_1'\Delta x_{t-1} + \phi_2' \Delta x_{t-2} + \dots + \phi_{p-1}' \Delta x_{t-(p-1)} + \varepsilon_t \end{equation}\] donde \(\beta\) sigue la misma distribución que el parámetro de (*). También se puede extender para las ecuaciones (+) y (^)
Este test es basado en que si la serie es estacionaria y la diferenciamos una vez se vuelve de orden I(-1).
El estadístico considerado es entonces: \[\begin{equation} \hat{\eta}_{\mu} = \frac{1}{n^2 s_{nl}^2} \sum_{t=1}^n S_{t}^2 \end{equation}\]
donde, \(s_{nl}^2\) es un estimador consistente de \(\sigma^2\) y \(S_t = \sum_{s=1}^t (x_s - \bar{x})\)
La serie data es un AR(2) con intercepto y tendencia, es decir, no es estacionaria. Suponiendo que desconocemos esta información, para verificar esto, podemos las librerias de R urca y tseries. Ambas tienen implementadas todas las pruebas de raices unitarias vistas en clase, solo cambian en como muestran los resultados y en algunas opciones adicionales para algunas pruebas. Por conveniencia en este ejemplo usaremos la tseries.
De manera visual se observa que la serie es no estacionaria, aunque parece serlo en tendencia y con intercepto. Comprobamos este hecho con las diferentes pruebas. Cabe resaltar que para la libreria tseries, ADF (Dickey-Fuller aumentada) y PP (Phillips-Perron) son pruebas que soportan una serie con tendencia e intercepto. Por su parte, KPSS por default solo incluye el intercepto. Así, que se quiere probar si la serie es estacionaria sólo con intercepto o sin tendencia ni intercepto, debemos recurrir a la libreria urca.
ADF rechaza la hipótesis nula así que concluimos que la serie estacionaria.
##
## Augmented Dickey-Fuller Test
##
## data: data
## Dickey-Fuller = -10.78, Lag order = 9, p-value = 0.01
## alternative hypothesis: stationary
De igual manera, PP rechaza la hipótesis nula así que concluimos que la serie estacionaria.
##
## Phillips-Perron Unit Root Test
##
## data: data
## Dickey-Fuller Z(alpha) = -1838.5, Truncation lag parameter = 7, p-value
## = 0.01
## alternative hypothesis: stationary
Finalmente, kpss de manera predeterminada rechaza que la serie sea estacionaria pues no considera estacionareidad en tendencia, pero al cambiar el parámetro null por _“Trend” si la incluye y por tanto no encuentra evidencia de que la serie sea no estacionaria. En conclusión, tenemos evidencia para afirmar que la serie es estacionaria con intercepto y en tendencia.
##
## KPSS Test for Level Stationarity
##
## data: data
## KPSS Level = 12.565, Truncation lag parameter = 7, p-value = 0.01
##
## KPSS Test for Trend Stationarity
##
## data: data
## KPSS Trend = 0.027295, Truncation lag parameter = 7, p-value = 0.1